Законопроектът за AI, който кара клин през Силиконовата долина
тласъкът на Калифорния да регулира изкуствения интелект, е нахлул в Силиконовата долина, тъй като противниците предупреждават, че правната рамка може да подкопае конкуренцията и позицията на САЩ като световен лидер в технологията.
След като водеше ожесточена битка за изменение или увеличаване на законопроекта, когато той премина през законодателната власт на Калифорния, ръководителите на компании, включително Openai и Meta, очакват с нетърпение да видят дали Гавин Нюом, държавният демократичен губернатор, ще го подпише в закона. Той има до 30 септември да реши.
Калифорния е сърцето на разрастващата се АИ индустрия и без федерален закон, който да регулира технологията в САЩ - камо ли единствен глобален стандарт - последствията ще се простират далеч далеч отвъд държавата. ; Йошуа Бенгио, професор в Университета в Монреал и „кръстник“ на AI, каза пред Financial Times.
Защо Калифорния иска да регулира ИИ? /H3>
Бързото развитие на AI инструменти, които могат да генерират човешки отговори на въпроси, увеличават възприеманите рискове около технологията, вариращи от правни спорове като нарушаване на авторски права до дезинформация и разпространение на Deepfakes. Някои дори смятат, че това може да представлява заплаха за човечеството.
Президентът Джо Байдън издаде изпълнителна заповед миналата година, като целяха да определят националните стандарти за безопасността на AI, но Конгресът не постигна никакъв напредък в приемането на национални закони.
Либералната Калифорния често е скочила, за да регулира по въпросите, при които федералното правителство изостава. AI е във фокус със сигурната и сигурна иновация на Калифорния за Закона за системите за пограничен изкуствен интелект на границата, който бе изложен от държавния сенатор Скот Винер. От различните законопроекти, подадени в различни щати, този в Калифорния е най -вероятно да окаже реално въздействие, тъй като държавата е в центъра на технологичния бум, дом на най -добрите компании, включително Openai, Anthropic, Meta и Google.
Бенгио каза: „Големите компании за AI, които са били най -гласови по този въпрос, в момента са заключени в състезанието си за пазарен дял и максимизиране на печалбата, което може да доведе до намаляване на ъглите, когато става въпрос за безопасност и Ето защо се нуждаем от някои правила за тези, които водят тази надпревара. ”
Какво казва сметката?
Wiener заяви, че законопроектът му „изисква само най -големите разработчици на AI да правят това, което всеки един от тях многократно се е ангажирал да прави: извършва основни тестове за безопасност на масово мощни модели на AI“.
Законопроектът ще изисква разработчиците, изграждащи големи модели, да преценят дали са „разумно способни да причинят или съществено дават възможност за критична вреда“, вариращи от злонамерена употреба или кражба до създаване на биологично оръжие. След това ще се очаква компаниите да вземат разумни предпазни мерки срещу тези идентифицирани рискове.
Разработчиците ще трябва да изградят „превключвател за убийство“ във всякакви нови модели в определен размер, в случай че са злоупотребявани или да изпаднат в измамник. They would also be obliged to draft a safety report before training a new model and to be more transparent — they would have to “report each artificial intelligence safety incident” to the state's attorney-general and undertake a third-party audit to ensure compliance every година.
Той е насочен към модели, които струват повече от 100 милиона долара за трениране, приблизително сумата, необходима за обучение на днешните най -добри модели. Но това е бързо движеща се цел: Антропският изпълнителен директор Дарио Амодей прогнозира, че следващата група от авангардни модели ще струва 1 млрд. Долара за обучение и 10 милиарда долара до 2026 г.
Законопроектът ще се прилага за всички компании Правейки бизнес в Калифорния, независимо къде са базирани, което всъщност би обхващало всяка компания, която в момента е в състояние да разработва топ модели на AI, каза Бенгио.
Той ще въведе граждански наказания до 10 на сто от разходите за обучение на модел срещу разработчици, чиито инструменти причиняват смърт, кражба или вреда на имуществото. Той също така ще създаде задължения за компаниите, предлагащи изчислителни ресурси, за да обучат тези модели и одиторски фирми, което ще ги направи отговорни за събирането и запазването на подробна информация за идентичността и намеренията на клиентите. Ако не го направите, може да доведе до глоби до $ 10mn.
Кой е за сметката и кой е против него?
Wiener и неговите колеги казват, че има силна обществена подкрепа за нови AI Guardrails. Той също е спечелил квалифицирана подкрепа от водещия стартиращ AI Anthropic и Elon Musk, както и Sag-Aftra, съюз на актьорите и две женски групи. В понеделник 100 служители в най -добрите AI компании, включително Openai, XAI и Google DeepMind, подписаха писмо, призоваващи Newsom да подпише законопроекта. ;
Критици-включително академици като Stanford AI Professor Fei-Fei Li, фирма за рисков капитал Андреесен Хоровиц и стартиращ ускорител Y Combinator-твърдят, че законопроектът ще омагьосва компаниите в ранен етап и разработчиците на отворен източник, които публично са публично Споделете кода, който е в основата на техните модели.
Сената Бил SB 1047 ще „забави темпото на иновациите и ще води инженерите и предприемачите от световна класа в Калифорния да напуснат държавата в търсене на по-големи възможности другаде“, предупреди главният служител по стратегията на Openai Джейсън Квон в писмо до Винер миналия месец. Той озвучи едно от най -често срещаните оплаквания: че сенаторът се вписва в район, който трябва да се справи на федерално ниво.
противниците също така казват, че това би задушило иновациите, като натрупва обременителни изисквания към разработчиците и ще ги направи отговорни за използването на своите AI модели от лоши актьори. Той законодател за рискове, които все още не съществуват, добавят.
Дарио Гил, директор на научните изследвания в IBM, каза: „Философски, предвиждайки последствията от това как хората ще използват вашия код в софтуера е a Много труден проблем. Как хората ще го използват, как ще очаквате, че някой ще навреди? Това е страхотен инхибитор. Това е много хлъзгав склон. "
Дан Хендрикс, директор на Центъра за безопасност на ИИ, който изигра критична роля при формулирането на законопроекта, заяви, че противниците „искат правителствата да им дадат празен чек за изграждане и разгръщане на каквито и да било технологии, независимо от правителства Риск или вреда на обществото ”.
Хендрикс, който също е съветник на XAI на Мъск, попадна под обстрел от критици, които хвърлят CAIS като облекло за ресни, прекалено загрижени за екзистенциални рискове от AI. Противниците също изразиха опасения, че CAIS е лобирал за влияние върху „Съвет на пограничните модели“, който законопроектът ще създаде, персонал с девет директори, извлечени от индустрията и академичните среди и натоварва да актуализира регулациите около моделите на AI и да гарантира спазването на спазването.
Винер отхвърли тези аргументи като „теория на конспирацията“.
„Опозицията се опита да нарисува всеки, който подкрепя законопроекта като„ Doomers “, каза той. „Казаха, че това са рискове от научната фантастика; Че бяхме съсредоточени върху терминатора [филм]. Ние не сме, фокусирани сме върху много реални рискове като изключване на електрическата мрежа или банковата система или създаване на химическо или биологично оръжие. “
Как авторите на законопроекта се опитаха да се справят с притесненията?
Wiener каза, че той и неговият екип са прекарали последните 18 месеца, ангажирайки се с „всеки, който ще се срещне с нас“, за да обсъди законопроекта, включително LI и партньори в Andreessen и Y Combinator.
Едно от техните притеснения беше, че изискването на превключвател за убийство за модели с отворен код ще попречи на други разработчици да се променят или да се изграждат върху тях от страх, че могат да бъдат изключени в момента на известието. Това би могло да бъде фатално за младите компании и академичните среди, които разчитат на по-евтини или безплатни достъпа с отворен код. отвъд определено ниво по трети страни. Те също няма да се изисква да имат превключвател за убийство.
Някои от първоначалните стриктури на законопроекта също са модерирани, включително стесняване на обхвата на гражданските наказания и ограничаване на броя на моделите, обхванати от новите правила.
Ще стане ли законопроектът?
SB 1047 лесно прие законодателството на държавата. Сега Newsom трябва да реши дали да подпише законопроекта, да позволи да стане закон без подписа си или да го наложи вето. Ако той направи вето, законодателството на Калифорния може да отмени това с вот от две трети. Но според говорител на Wiener на практика няма шанс това да се случи. Последният път, когато ветото на губернатора на Калифорния беше отменено, беше през 1980 г.
Стивън Буш, който всеки трябва да има мнение за AI
Губернаторът е на трудно място, като се има предвид значението на технологичната индустрия за неговата държава. Но оставянето на AI да стане без проверка може да бъде още по -проблематично.
Wiener каза: „Бих се радвал на това да бъде федерално законодателство: Ако Конгресът действа в това пространство и прие силен законопроект за безопасност на AI, ще се радвам да се опаковам и да се прибера вкъщи. Но тъжната реалност е, че докато Конгресът е много, много успешен в здравеопазването, инфраструктурата и климата, той наистина се бори с регулирането на технологиите. . . Докато Конгресът не действа, Калифорния има задължение да води, защото ние сме сърцето на технологичната индустрия. ”